摘要。解决人工智能(AI)的公平性,特别是在医学AI中,对于确保公平的医疗保健结果至关重要。最近为增强公平性的努力引入了医学AI中的新方法和数据集。但是,在域转移设置下的公平性问题几乎没有探索,而诊所通常依靠不同的成像技术(例如,不同的视网膜成像方式)进行患者诊断。本文介绍了公平统治,这是一项针对域转移算法公平性的系统性研究,采用了最新的域适应性(DA)和泛化(DG)算法(DG)算法,用于医疗细分和分类任务,以了解如何在不同领域之间转移偏见。我们还引入了一种新颖的插件公平身份注意(FIA)模块,该模块适应各种DA和DG算法,以通过使用自我注意力根据人口统计学属性来调整特征重要性来提高公平性。此外,我们将第一个以公平性的数据集为基础,具有两种成对的成像方式,用于同一患者队列,以进行医疗细分和分类任务,以严格评估域偏移场景中的公平性。排除源和目标域之间人口统计分布变化的混杂影响将使域转移模型的性能更清晰地量化。可以在https://ophai.hms.harvard.edu/datasets/ Harvard-fairdomain20k上访问代码和数据。我们广泛的评估表明,提议的FIA显着增强了两种模型性能,这些模型性能在所有域移动设置(即DA和DG)方面相对于不同的人口统计学而言,这两种人口统计学方面都超出了分割和分类的现有方法。
主要关键词
![arxiv:2407.08813v2 [eess.iv] 18 Jul 2024PDF文件第1页](/bimg/4/4cbd9d257aaaf1f8cfb81e1e2bdec4a4b63ed063.webp)
![arxiv:2407.08813v2 [eess.iv] 18 Jul 2024PDF文件第2页](/bimg/3/358f37f17f76faa045a607b4f9dd9d96ea2b6016.webp)
![arxiv:2407.08813v2 [eess.iv] 18 Jul 2024PDF文件第3页](/bimg/7/7f92239ed0a685763663484459c23d022a1ad113.webp)
![arxiv:2407.08813v2 [eess.iv] 18 Jul 2024PDF文件第4页](/bimg/5/511e2c54f87bf5fbce4707dece0aa638f71cabd9.webp)
![arxiv:2407.08813v2 [eess.iv] 18 Jul 2024PDF文件第5页](/bimg/f/f068a318cdba97c9239ea59baab3a111027304bf.webp)
